Die Trennung von Intelligenz und Bewusstsein
Michael Seibel • Wie intelligent ist 'Künstliche Intelligenz'? (Last Update: 03.08.2019)
Das Wort Intelligenz kommt vom lateinischen intellegere, was die konkrete Handlung des Aussortierens von etwas aus einer Vielfalt bezeichnete. Davon wurde in der Folge abstrahiert. Intelligenz meinte dann ganz allgemein die menschliche Fähigkeit des Unterscheidens. In der Psychologie von heute wurde Intelligenz zu einem Sammelbegriff für die kognitiven Fähigkeiten des Menschen. Kognition wiederum ist vom lateinischen cognitio abgeleitet, was Erkennen oder Erkenntnis bedeutet. Menschliche Erkenntnisfähigkeit ist nun an sich eine ganzheitliche Leistung. Eine Erkenntnis haben bedeutet nicht einfach nur, etwas von etwas anderem unterscheiden zu können, sondern etwas in einen Gesamtzusammenhang stellen. Kaum jemand würde behaupten, dass jemand, der im Supermarkt vor einem Gemüseregal steht und auf den ersten Blick Möhren von Äpfeln unterscheidet, deshalb schon eine nennenswerte Erkenntnis hat.
Der Ausdruck Intelligenz beschreibt in der Geschichte der Philosophie die Fähigkeiten zu unterscheiden als integrale Leistung des menschlichen Denkens als eines Ganzen. Wenn es im klassischen Griechenland etwas Entsprechendes für den Ausdruck Intelligenz gibt, dann den Ausdruck ›nous‹. Für die Vorsokratiker kennzeichnet nous den ursprünglichen Besitz eines universellen Wissens, das das Geschehen im Kosmos regelt. In diesem Sinn wird Intelligenz ursprünglich als metaphysische, ontologisch unabhängige und übermenschliche Macht verstanden. Später verweisen Ausdrücke wie nous und noein auf die Fähigkeit, durch ein direktes Sehen wahre Erkenntnis zu schöpfen. Intelligenz als Erkenntnisfähigkeit führt zum Besitz von Wissen, das für die Vorhersage eines jeglichen Geschehens und für die Anpassung des Verhaltens an das das, was jeweils geschieht, notwendig ist. Dass das nous als kosmische Macht verstanden wird, die völlig anders als der Mensch ist, endet mit Platon und Aristoteles. Ab dem 5. vorchristlichen Jahrhundert wird Intelligenz immer stärker als Fähigkeit des menschlichen Geistes verstanden und zunehmend weiter ausdifferenziert.
Dabei unterscheiden die Griechen intuitive Erkenntnis, noein, von diskursiver Erkenntnis, legein/dianoein. Das legein auch dianoein heisst zeigt bereits, dass das legein, die diskursive Erkenntnis, etwas gegenüber dem noein Zweites, Späteres ist, das die Intelligenz benötigt, um darauf aufzubauen. Ohne Intelligenz hängt die Ratio dem klassischen Verständnis zufolge in der Luft. Dieser Gedanke führt bei der Übersetzung der Werke des Aristoteles ins Lateinische zum Begriffspaar intellegere/ratio.
Eigentlich liegt damit ein Doppelgedanke von Einheit, aber gleichzeitig auch eine Tendenz zur Trennung vor. Intelligenz ist gar nicht anders zu denken als in der Einheit des menschlichen Geistes, aber sie ist auch etwas von der puren ratio Unterschiedenes.
Heute können wir experimentell sehr leicht zeigen, dass unsere Gehirntätigkeit wie alle Prozesse unseres Organismus zum überwiegenden Teil unbewusst abläuft. Z.B. ist die Tatsache, ob uns alltägliche Objekte sichtbar werden oder nicht, von ihrer unbewussten Verarbeitung im Gehirn abhängig. Davon kann sich jeder im Handumdrehen über zeugen, der selbst einmal den kleinen, äußerst anschaulichen Versuch durchführt, den wir hier verlinkt haben.
Das Bewusstsein verfügt nur über die Fähigkeiten, die ihm die an sich unbewusste Tätigkeit des Nervensystems bereitstellt. Das Bewusstsein selbst ist kein geschlossenes Ganzes. Die Ganzheit der Aktivität das Nervensystems ist nicht bewusst. Insofern ist es problematisch, mit welchem Recht sich theoretisch sinnvoll von dieser Aktivität als einer Ganzheit reden lässt und es ist plausibel, warum sich die Wissenschaften um ein Verständnis von Einzelleistungen der mentalen Tätigkeit bemühen.
An dieser Bruchkante versucht die Philosophie bis heute den Gedanken an das menschliche Dasein als ein Strukturganzes zu bewahren und von daher auch Intelligenz zu begreifen. Die besondere Schwierigkeit dabei besteht darin, dass die Philosophie absolut nichts gegen die differenzierende Arbeit des Denkens hat, die in der Geistesgeschichte und vor allem in der modernen Wissenschaftsgeschichte das glatte Gegenteil des Versuchs unternimmt, komplexe Ganzheiten und überhaupt den Begriff von Ganzheit zu bewahren. Die empirischen Wissenschaften sind seit Newton ohne Mathematisierung nicht zu denken. Es gibt die Torte des empirisch Realen sozusagen immer nur im Anschnitt. Der ganze Erfolg der modernen Wissenschaften ist von Anfang an ein Erfolg reduktionistischer Praktiken, ein Erfolg, der holistisch so nie zustande gekommen wäre. Der Reduktionismus der empirischen Wissenschaften hat Recht und frustriert zugleich. Immerhin gelingt Newton eine Grundgleichung der klassischen Mechanik und ein grundlegendes Verständnis der Dynamik des Sonnensystems nicht obwohl er reduktionistisch denkt, sondern weil er etwas überaus Komplexes auf ein unüberboten einfaches Modell reduziert. Insofern hat sein Reduktionismus recht. Aber mit der Periheldrehung der Bahn des Merkur stimmt etwas nicht. Das fällt im 19. Jahrhundert auf und wird im 20. Jahrhundert von Einstein geklärt. Dass so etwas überhaupt klärbar ist, führt nicht zurück zu restaurierten Ganzheiten, die man vorher verloren hat, sondern zu immer selbstbewussteren Abstraktionen. Was einmal als Ganzheit gedacht wurde, wird an Stelle dessen als aus Einfachem zusammengesetztes Komplexes gedacht. Dabei versetzen sich die empirischen Wissenschaften immer wieder in eine ziemlich fruchtbare Spannung zwischen dem irrealen Einfachen und dem unberechenbaren Komplexen. Denn die Realität ist Sache des Mesokosmos. Darauf hat sich unsere Intelligenz evolutionsgeschichtlich eingestellt. Aber das Einfache ist längst in den Mikrokosmos abgesunken und dort nicht mehr in Kategorien des Realen beschreibbar, dafür aber sehr erfolgreich mit mathematischen Mitteln. Ort und Zeit gelten bekanntlich im Mikrokosmos nicht wie in der sichtbaren Welt. Und andererseits ist das Komplexe nur mehr statistisch erfassbar. Allerdings auch das ziemlich erfolgreich. Irgendwo dazwischen und ohne dass sich beschreiben ließe warum gerade da, tauchen wie eine Fata Morgana dessen, was früher einmal als Realität oder Ganzheit verstanden wurde, Phänomene von Emergenz auf, etwas, das offenbar mehr ist als die Summe von Teilen.
Mit dem Thema Intelligenz befassen sich heute allgemeine und differentielle Psychologie und die Neuropsychologie. Aber es gibt auch interdisziplinäre Bestrebungen seitens der Kognitionswissenschaften. Ihr Gegenstandsbereich ist mit einem Ausdruck aus der Kochkunst gesagt sozusagen 'geschnätzelter Geist'. Sie befasst sich im Theorieverbund von Psychologen, Philosophen, Linguisten, Anthropologen, Neurowissenschaftlern und KI-Wissenschaftlern nicht nur mit Kognition, sondern gleich auch mit Emotion, Motivation und Volition. Philosophen spielen dabei einerseits die Rolle von Mahnern, die nachfragen, wo der Mensch in dem ganzen Unternehmen bleibt, und sie übernehmen die Rolle des Kritikers der eigenen Tradition, die sich an Sinn und Unsinn der klassischen Trennung von Geist und Materie abarbeiten.
Aus Sicht der Philosophie und eines ganzheitlichen Denkens von Intelligenz kann es 'Künstliche Intelligenz' eigentlich nicht geben, denn der Zusammenhang zur Leistung des menschlichen Denkens als eines Ganzen wird dort außer in ausgesprochen randständigen Statements gar nicht erst gesucht. Insofern macht die ganz selbstverständliche Teilnahme von KI-Wissenschaftlern am Projekt Kognitionswissenschaften deutlich, dass auch die anderen beteiligten Naturwissenschaften den Ausdruck menschlich und den philosophischen Bezug auf menschliches Dasein im Ganzen im Zusammenhang mit Intelligenz nicht all zu zentral sehen.
Aber was dann soll Intelligenz sein? Intelligenz wird reduktionistisch aufgefasst, wenn sie als ein additives Set einzelner kognitiver Fähigkeiten verstanden wird. Zu diesem Set, zu den kognitiven Fähigkeiten eines Menschen zählt man unter anderem Wahrnehmung und Aufmerksamkeit, Erinnerung und Lernen, das Problemlösen, Kreativität und Vorstellungskraft, Planen und Orientierung, Argumentieren, Selbstbeobachtung, den Willen und den Glauben. Der naturwissenschaftliche Intelligenzbegriff ist durchaus verwaschen und bei weitem unbestimmter als die Teilthemen, in die das mit Intelligenz bezeichnete zerlegt wird. Diese Einzelteile sind Gegenstand der empirischen Wissenschaften. Anschluss wird nicht gesucht an einen Begriff des menschlichen Daseins als einer wie immer problematischen Ganzheit, sondern an Biologie, empirische Psychologie, Sozialwissenschaften und Technik. Intelligenz war jedoch in philosophischen Kontexten gerade nicht gemeint als eine Addition von Einzelfertigkeiten.
Machen wir uns klar, wie üblicherweise das wissenschaftliche Vorgehen bei der Untersuchung solcher Fähigkeiten aussieht. Zunächst muss die Fähigkeit, die untersucht werden soll, klar genug von benachbarten Phänomenen abgegrenzt werden, um sie quantifizieren zu können. Wenn man z.B. fragen möchte, wie lange Menschen unter bestimmten Bedingungen aufmerksam sein können. In dem Fall braucht man definierte, wiederholbare Bedingungen, und man hat festzulegen, was man als Zeichen von Problemlösen gelten lässt und wie genau man das messen möchte. Es kommt im ersten Schritt nicht einmal darauf an, ob jeder Beobachter meine Bedingungen akzeptiert, sondern nur darauf, was er misst, wenn er sich daran hält. Ist das Verfahren unabhängig von Beobachter, ist es genau genug und ist die Stichprobe repräsentativ? Dann fragt das noch fehlende vierte Gütekriterium wissenschaftlichen Arbeitens, die Validität, bekanntlich, ob die Daten tatsächlich das repräsentieren, was gemessen werden soll, also die zu messende Größe. Dazu muss mindestens klar sein, dass das zu Messende überhaupt die Form einer Größe und welcher Größe hat, also im Beispiel die kognitive Fähigkeit, ein Problem zu lösen. Zu diesem Zweck nimmt man ein beliebiges klar definiertes Problem.
Ein Agent hat ein Problem, wenn es für ihn einen bestimmten zu erreichenden Endzustand gibt, von dem er durch eine Barriere getrennt ist. Wenn der Agent ein junger Mann ist und sein Problem darin besteht, dass sich seine Freundin von ihm trennen will, ist das zwar ein ausgesprochen menschliches Problem, aber kein geeignetes Problem, um Experimente in Sachen Problemlösen zu machen. Das Ergebnis wäre zwar messbar – sie bleibt oder sie bleibt nicht – aber nichts daran entspräche den Qualitätskriterien, nichts wäre objektiv, reliabel, repräsentativ und valide. Die Komplexität menschlicher Probleme ist offenbar in diesem Fall viel zu hoch für wiederholbare Versuchsaufbauten. Probleme dagegen, die experimentell nutzbar sind, weil sie klar definiert sind, sind Spiele aller Art, solange sie festen Regeln folgen. Menschliche Intelligenz wird auf Problemlösungskompetenz reduziert, und dabei ist es automatisch gleichgültig, ob es sich um die Kompetenz eines Menschen, eines anderen Tiers oder einer Maschine handelt, denn gerade der Verzicht auf nicht exakt definiert Komplexität ist ja gerade die Voraussetzung dafür, dass das Experiment überhaupt wissenschaftlich durchführbar ist. Man kann also fragen: Wer gewinnt in einem Spiel mit welcher Strategie? Und man kann genau das als eine Äußerung von Intelligenz betrachten. Aber dies Verständnis von Intelligenz hat nicht mehr viel mit der klassischen Vorstellung vom kosmischen oder menschlichen nous zu tun und sie bewahrt ebenfalls nichts von der modernen Idee der Integrität und Würde des Menschen. Sie reduziert Intelligenz auf quantifizierbare Lösungskompetenz. Aber vielleicht haben Naturwissenschaften ja recht, wenn sie diesen Einwand vor dem Hintergrund ihrer Fragestellungen für einigermaßen sekundär halten. Schließlich will man nichts anderes als Zusammenhänge der Phänomene verstehen, wie sie sich Kognitionswissenschaftlern nun einmal zeigen.
Heute scheint es keine Frage mehr zu sein, dass es zu einer Trennung von Intelligenz und Bewusstsein kommt, dass Computerprogramme, die sicher keinerlei Bewusstsein haben, Leistungen erbringen, die ein Intelligenztest am Menschen als bewertbares Anzeichen von Intelligenz ausweisen würde, gerade dann, wenn man einen Begriff von Intelligenz ansetzt, wie ihn Psychologen im Rahmen von Intelligenztests anzulegen gewohnt sind. Dann geht es um Reaktionszeiten, Gedächtnisleistung, numerische Fähigkeiten, räumliche Fähigkeiten, Wahrnehmungstempo, Analysieren, Muster erkennen, Schlussfolgern und selbst um viele sprachliche Leistungen wie Benennungsvermögen oder Ideenfluss.
Wir wundern uns inzwischen nicht mehr, wenn Computeranwendungen das meiste von dem leisten können, was ein Intelligenztest messen kann. Dies schon aus dem schlichten Grund, weil ein Intelligenztest etwas nur in genau dem Umfang messen kann, wie er es zunächst einmal beschreiben kann, und weil offensichtlich vieles im gleichen Umfang, wie es beschreibbar ist, auch digitalisierbar ist, d.h. sich über kurz oder lang von Computern erledigen lässt. Dass sich die Musikalität eines Weltklasse-Dirigenten bisher von keinem Computer kopieren lässt, braucht uns daher nicht zu verwundern. Diese Nicht-Messbarkeit ist nur ein anderer Ausdruck dafür, dass sie sich nicht präzise beschreiben lässt. Wüssten wir genau, was der Dirigent da eigentlich tut, könnten wir mit genügend Rechenleistung auch früher oder später eine entsprechend programmierte Maschine ans Pult stellen. Allein, wir wissen es nicht, selbst wenn so mancher Kunstkenner im Foyer seine Vermutungen darüber ausbreitet, wie die Dirigentenleistung zu beschreiben und zu bewerten ist und selbst wenn Karajan sofort erkannt hat, dass die Stimme von Cecilia Bartoli etwas Einzigartiges hat. Aber bei welchen Leistungen waren wir nicht in der Vergangenheit fest davon überzeugt, dass sie in diesem Sinn unbeschreiblich sind! Wir waren schnell und gern bereit, etwas genial zu nennen. Fakt ist allerdings, dass inzwischen auch bestimmte maschinelle Leistungen für die allermeisten Menschen nicht mehr vollständig beschreibbar sind …. und also in diesem Sinn ebenfalls ziemlich genial.
Aber wahrscheinlich liegen genau da einige der ungelösten Rätsel der menschlichen Intelligenz, bei den Leistungen, die Menschen gelingen, ohne dass überhaupt jemand die jeweilige Aufgabe wirklich präzise definieren könnte, die durch diese Leistungen gelöst werden. Sobald nämlich erst einmal eine präzise Definitionen der Aufgabe vorliegt, gelingt es der KI in immer mehr Bereichen, sie effizienter als der Mensch zu lösen.
Wir Menschen sind dagegen stark darin, Aufgaben zu lösen, die wir uns nie präzise gestellt haben. Das dürfte unter anderem den Bereich der ästhetischen Urteile betreffen. Deshalb ist die Arbeit des Dirigenten ein gutes Beispiel dafür. "Dirigiere Mahlers 1. Symphonie. Halte dich an die Noten!" ist ganz und gar keine präzise gestellte Aufgabe. Wer nicht wesentlich mehr als das hinbekommt, dem werden sich die Tore der Carnegie Hall nie öffnen. Die Notation liefert bei weitem nicht genügend Kriterien dafür, wann die Aufgabe schlecht und wann sie exzellent erfüllt wird. Könnten wir die Aufgabe in einer Weise stellen, dass sie ein vollständiges Set von Kriterien präzise liefern würde, dann hätten menschliche Dirigenten möglicherweise auf die Dauer gegen KI-Systeme ebenso wenig Chancen wie heute bereits im Schach oder Go. Die künstlerische Dirigentenleistung würde einfach zu einem Optimierungsproblem.
Die Frage ist also gestellt, ob und wie weit KI-Systeme in der Lage sein werden, Strategien zu entwickeln, um fehlende Beschreibunskriterien selbst zu entdecken. Im Fall des Dirigentenbeispiels wäre die Frage, ob sich ein KI-System z.B. durch Mustererkennung bei der Analyse der Audiodaten erfolgreicher Konzerte in die Lage versetzt, Top-Leistungen ebenso zu variieren und zu überbieten wie beim Schach. Das wäre unterm Strich ein ausgesprochen elaborierter Turing-Test.
Probleme mit präzisen Aufgabenstellungen sind dagegen wie gesagt die Spiele. In der Spieltheorie sind die Brettspiele Schach, Shōgi und Go endliche Zwei-Personen-Nullsummenspiele mit perfekter Information ohne Zufallseinfluss.
Das Schach-Programm Alpha Zero von DeepMind Inc. trainierte sich wenige Stunden, indem es 40 Millionen Partien gegen sich selbst spielte und daraus entsprechende Schlüsse zog. Alpha Zero gewann danach gegen den Weltmeister der Schachprogramme Stockfish einen Wettkampf über 100 Partien mit 28 zu 0 Siegen. Die Hersteller beider Programme sind sich allerdings noch nicht ganz einig, ob die Bedingungen fair waren. Programmierer sind nicht immer gute Verlierer.
Ein ähnliche Entwicklung beim Go, dem weit komplexeren Brettspiel als Schach.
„AlphaGo gegen Lee Sedol war ein Go-Turnier zwischen Mensch und Maschine: Vom 9. bis zum 15. März 2016 trat der als stärkster Go-Spieler der Welt geltende Südkoreaner Lee Sedol gegen ein Computerprogramm namens AlphaGo an und verlor vier der fünf Partien. Der Sieg der von der britischen Firma Google DeepMind entwickelten Software gilt als Meilenstein im Bereich des Maschinenlernens und der Künstlichen Intelligenz. Er wird mit der historischen ersten Wettkampfpartie zwischen dem damaligen Schachweltmeister Garri Kasparow und dem Schachcomputer Deep Blue (von IBM a.v.m.) verglichen, die der Weltmeister 1996 verlor. (…) Das Turnier fand in Seoul statt und basierte auf der traditionellen chinesischen Bewertung mit einem 7,5-Punkte-Komi. Jeder Spieler hatte zwei Stunden Bedenkzeit, bevor die Partie dann in drei Mal eine Minute Byōyomi mündete. Alle Spiele wurden durch Aufgabe beendet. Das Preisgeld in Höhe von 1 Million US-Dollar spendete DeepMind Wohltätigkeits- und Go-Organisationen. Lee Sedol erhielt für die Teilnahme und den einen Sieg 170.000 Dollar. Nach dem Turnier verlieh die südkoreanische Go-Vereinigung AlphaGo den Rang des 9. Dan Professional. Zur Begründung hieß es, AlphaGo sei mit seiner Art des Spiels „fast in göttliche Bereiche“ vorgestoßen.“1...Wenn KI, die so genannte künstliche Intelligenz schon nicht menschlich werden kann, dann wenigstens göttlich!
Wir behandeln den Ausdruck künstliche Intelligenz mit der allergrößten Zurückhaltung. Von künstliche Intelligenz sollte man besser nicht reden. Wesentlich korrekter wäre der Ausdruk Korrelationsmaschine, denn darum geht es eigentlich, um Maschinen, die extrem effizient und effektiv dazu in der Lage sind, Korrelationen zu berechnen und dadurch Muster zu entdecken. Der Ausdruck künstliche Intelligenz gibt dagegen Mystifikationen in jede Richtung Vorschub, garantiert Aufmerksamkeit, Besorgnis und Hoffnung.
Es ist im Grunde ein werbliche Ausdruck. Seine gläubige Annahme hätte man früher wahrscheinlich als einen Aberglauben bezeichnet.
„Go ist wegen seiner deutlich höheren Komplexität nicht mit Schach zu vergleichen. Um, wie Schachprogramme es tun, die Suchbäume des Spiels mit Hilfe von Standardalgorithmen und deterministischen Routinen durchzurechnen, hätte Go alle verfügbaren Supercomputer und Rechenzeiten gesprengt. Der Ansatz, dem Spiel über selbst lernende Verfahren näher zu kommen, geht auf eine Idee des Mathematikers Irving John Good von 1965 zurück. Allerdings waren damals neuronale Netze, wie sie in AlphaGo agieren, noch nicht entwickelt, geschweige denn war der Selbstlernprozess durch das Studium von Millionen von Go-Partien damals anzustoßen. Erst im Oktober 2015 war abzusehen, dass die Methode zum Ziel führt. Damals schlug AlphaGo den europäischen Go-Meister Fan Hui. “2
DeepMind Inc., eine Tochter von Alphabet Inc., der Muttergesellschaft von Google, stellt ihre Mission als Unternehmen unter das folgende Motto:
"DeepMind ist weltweit führend in der Forschung zu künstlicher Intelligenz und deren Anwendung für positive Wirkungen. Wir haben es uns zur Aufgabe gemacht, die Grenzen der KI zu erweitern und Programme zu entwickeln, mit denen sich komplexe Probleme lösen lassen, ohne dass die Programme vorher darüber unterrichtet werden wie.
Wenn wir erfolgreich sind, glauben wir, dass dies einer der wichtigsten und weitreichendsten wissenschaftlichen Fortschritte sein wird, die je gemacht wurden. Dadurch werden wir unsere Fähigkeiten entscheidend verbessern, die Geheimnisse des Universums zu verstehen und einige der dringlichsten realen Herausforderungen zu meistern. Vom Klimawandel bis hin zu einer radikal verbesserten Gesundheitsfürsorge leiden zu viele Probleme darunter, dass Fortschritte zu langsam erzielt werden, deren Komplexität unsere Fähigkeiten übersteigt, selbst Lösungen zu finden. Mit KI als Multiplikator für den menschlichen Einfallsreichtum werden diese Lösungen in Reichweite kommen. (...)
Durch die Implementierung unserer Forschung im Bereich Spiele, einem nützlichen Übungsfeld, konnten wir ein Programm erstellen, das sich selbst das Spielen von 49 völlig unterschiedlichen Atari-Titeln mit nur rohen Pixeln als Ausgangs-Input beibrachte und sie gewann. Weltweit hat unser AlphaGo-Programm im Go den weltbesten Spieler besiegt. Go ist eines der komplexesten und intuitivsten Spiele, das je entwickelt wurde, mit mehr möglichen Positionen als es Atome im Universum gibt.
Gleichzeitig arbeitet unser DeepMind Applied-Team mit Experten aus verschiedenen Bereichen zusammen, um sinnvolle Durchbrüche in der Praxis zu erzielen. Unsere Systeme haben einen großen Einfluss auf die Umwelt, indem sie lernen, in den Datenzentren von Google erheblich weniger Energie zu verbrauchen. Wir arbeiten mit Klinikern des britischen National Health Service zusammen, um die Bedingungen zu verbessern, unter denen Millionen von Menschen auf der ganzen Welt leiden. (...)
Unsere Motivation ist es, die positiven und transformativen Auswirkungen von AI zu maximieren. Wir glauben, dass AI letztlich der ganzen Welt gehören sollte, um vielen und nicht nur wenigen zu helfen, und wir werden dazu weiter forschen, veröffentlichen und die Ergebnisse umsetzen."3
Über einen Mangel an Selbstbewusstsein hatten die Unternehmen der Google-Gruppe nie zu klagen, aber dass man gleich die 'Geheimnisse des Universums' versteht, nur weil man Wettkämpfe gegen Menschen gewinnt, ist eine naive Ideologie, eine durchsichtige Selbstrechtfertigung und ein platter Versuch, Aufmerksamkeit zu erzwingen, mit dem die KI von der basalen Qualität ablenkt, wegen der sie verdient, sehr genau beobachtet und reflektiert zu werden. Es geht innerhalb der KI nicht um Verständnis, sondern um Gewinn, im doppelten Sinn eines Gewinns an Effizienz, der sich in Geld messen lässt und des Gewinns im Sinne des Siegs in einem Spiel oder der Vernichtung des Gegners im Krieg. Wer da gewinnt, das sind nicht Massen von sich selbst opfernden Menschen in irgendwelchen Völkerschlachten, sondern Software-Agenten durch ihre strategische Intelligenz. Die Vorstellung, KI könne der entscheidende Durchbruch im Weltverständnis sein, wie sie von DeepMind und Google platterdings geäußert wird, setzt voraus, dass Weltverstehen als permanenter kriegerischer Akt gesehen wird. Das ist eine Vorstellung, deren Erfinder weder DeepMind nach Google ist, sondern die deshalb zunehmend reibungsloser funktioniert, weil sie längst intersubjektives Gemeingut ist, das kaum noch jemand in Frage stellt. Es ist die individualistische Ideologie von der Evolution als Kampf ums Überleben von Mann gegen Mann, Maus gegen Maus und Wurm gegen Wurm, nur dass am Ende eines jeden Spiels alle Agenten noch leben und gleich auf dem nächsten Level mit dem Spiel neu beginnen können. Spiel ist Krieg ohne Tote ohne Trauerfeier und Totengedächtnis. Irgendwann ist der Unterschied zwischen dem Operator einer Drohne und dem Spieler eines Computergames eingeebnet. In Form von KI wird Krieg zum Spiel gegen sich selbst, wenn es sein muss, hunderttausende von malen in wenigen Stunden, solange wenigstens, bis niemand mehr besser ist als der künstliche Agent. Das wollen wir uns gleich einmal aus der Nähe anschauen.
Das Potential, dass KI wahrscheinlich ebenso hat, Menschen bei bestimmten Tätigkeiten sinnvoll zu unterstützen, wie etwa beim autonomen Fahren – wie es in der beliebten Sprachregelung der digitalen Industrien heißt: Menschen einander näher zu bringen – und nicht Gegner beliebig zu vernichten, wird als ableitbar aus kriegerischen Strategien gesehen, getreu dem bekannten Motto Heraklits, dass der Krieg der Vater aller Dinge ist. Diese Sicht ist keine Erfindung von DeepMind oder Google, sondern gängiges Verständnis im Neo-Liberalismus kapitalistischer Prägung.
Es ist ein durch und durch kompetitives Feld, das mittels der KI abgearbeitet wird. Es geht also gerade nicht darum, Menschen mit neuen Medien zusammenzubringen, sondern in definierten Bereichen, die sich durch relativ komplexe Anforderungen ausweisen, besser, schneller, leistungsfähiger zu sein als Menschen. Allein wegen des kompetitiven Charakters der angestrebten Leistung eignen sich Spiele als Entwicklungsterrain.
Auf sozialen Terrains gilt es bisher als schwierig, Vorhersagen für das Eintreffen konkreter Ereignissen zu machen.
Alphastar und die Totalisierung
StarCraft II ist eines der
schwierigsten Echtzeitstrategiespiele und damit eine „große
Herausforderung“ für die KI-Forschung. DeepMind Inc. hat
mit Alphastar ein KI-Programm entwickelt, das inzwischen bei diesem
Echtzeitstrategiespiel selbst Profi-Spieler besiegt.
StarCraft
II von Blizzard Entertainment spielt in einem komplexen fiktiven
Science-Fiction-Universum und ist zusammen mit der ursprünglichen
Starcraft-Version, eins der größten und erfolgreichsten
Computer-Spiele aller Zeiten, mit dem Spieler seit mehr als 20 Jahren
an eSport-Turnieren teilnehmen.
Es zeichnet sich gerade im Vergleich zu den auch bereits sehr komplexen Gesellschaftsspielen, in deren Beherrschung KI-Programme bisher brilliert haben, wie gesagt waren das in der Regel endliche Zwei-Personen-Nullsummenspielen mit perfekter Information ohne Zufallseinfluss durch folgende Eigenschaften aus:
Es besteht keine perfekte Information.
Der Gegner und die Umgebung sind nur teilweise sichtbar. Dem Starcraft-Spieler sind wichtige Informationen verborgen und müssen aktiv durch „Scouting“ entdeckt werden.Dynamische Umgebung: Die Umgebung ist veränderlich (z.B. durch Zerstörung von Hindernissen und begrenzte Ressourcen).
Zu bespielen sind mehrere Agenten auf einem Aktionsfeld variabler Größe. Es muss eine Vielzahl unterschiedlicher Einheiten mit unterschiedlichen Aufgaben gleichzeitig verwaltet werden. In einem praktisch unbegrenzten Raum kombinatorischer Möglichkeiten müssen Hunderte von verschiedenen Einheiten und Gebäuden in Echtzeit gesteuert werden, Hinzu kommt, dass Aktionen hierarchisch sind und geändert und ergänzt werden können.
Es gibt einen oder mehrere Gegner, aber potenziell auch Kooperationspartner.
Die Handlungsmöglichkeiten in Gegenwart und Zukunft sind von Handlungen in der Vergangenheit abhängig. Die Notwendigkeit, kurz- und langfristige Ziele zu balancieren und auf unerwartete Situationen anzupassen, stellt eine große Herausforderung für Computerprogramme dar, die oft dazu neigten, unflexibel zu agieren. Spiele können bis zu einer Stunde dauern, und Wirkungen von Entscheidungen können zum Teil erst nach längerer Zeit eintreten. Ob Aktionen erfolgreich sind, ist also nicht sofort zu erkennen.
Es wird ein Echtzeit-Geschehen
durchgespielt. Entscheidungen müssen in kurzer Zeit getroffen
werden können.
Außerdem gibt es bei StarCraft II
spieltheoretisch gesehen keine beste Strategie, also keine Strategie,
die gegen jeden Spieler gewinnt. Wenn Strategie A gegen Strategie B
gewinnt und Strategie B gegen Strategie C, kann Strategie C dennoch
gegen Strategie A erfolgreich sein, wie das bereits bei dem sehr
simplen Spiel Papier-Stein-Schere der Fall ist. Deshalb muss die KI
im Trainingsprozess lernen, je nach Lage des Spielgeschehens zwischen
unterschiedlichen Top-Strategien zu wechseln.
Das Verhalten des KI-Programms Alphastar wird durch ein tiefes neuronales Netz erzeugt, die Eingangsrohdaten wie eine Liste von Einheiten und ihren Eigenschaften empfängt und eine Folge von Befehlen erzeugt, die die Aktionen innerhalb des Spiels auslösen. (Es ist bemerkenswert, dass der Input von Alphastar abstrakte Listendaten und keine visuellen Informationen sind. Wir werden unten noch einmal darauf eingehen, warum.) Dabei arbeitet man an verbesserten neuronalen Netzwerkarchitekturen unter den Stichworten tranformer torso4 und LSTM5 (Long Short-Term Memory, ist ein Verfahren zur Erhöhung der Lerngeschwindigkeit), von denen man sich auch Fortschritte beim long-term sequence modelling, beim maschinellen Übersetzen, bei der Sprachmodellierung und bei Problemen der visuellen Repräsentation verspricht.
Alphastar nutzt auch einen neuen
Multi-Agenten-Lernalgorithmus. Das neuronale Netz wurde zunächst
durch überwachtes Lernen aus menschlichen anonymisierten Spielen
trainiert. Zu Beginn lernt Alphastar durch Nachahmung basale Mikro-
und Makrostrategien realer Spieler. Im weiteren Verlauf beginnt
Alphastar, gegen sich selbst zu spielen. Dabei werden bei jeder
Iteration neue Strategietypen erzeugt, und nach Leistungsstärke
bewertet. Alphastar macht eine Liga selbsterzeugter Agenten auf. Im
Ergebnis erhält man so nicht nur eine einzige stärkste
Variante, sondern ein ganzes Set extrem spielstarker Strategien, die
je nach der gegnerischen Spielstärke und der vom Gegner
gewählten Strategie variabel einsetzbar sind.
Da die Liga
fortschreitet und neue Wettbewerber geschaffen werden, entstehen
ständig neue Gegenstrategien, die in der Lage sind, die früheren
Strategien zu besiegen. Während einige neue Wettbewerber eine
Strategie ausführen, die lediglich eine Verfeinerung einer
früheren Strategie ist, entdecken andere auch für Menschen
ganz neue Strategien.
Die Trainingsphase betrug 14 Tage, in denen jeder erzeugte KI-Agent der Liga im Zeitraffer umgerechnet 200 Jahre lang StarCraft II spielte.
Um sich einen Eindruck davon zu machen, was im Test gegen zwei Profispieler dabei herauskommt, lohnt sich unbeschadet der Tatsache, dass es sich letztlich um Eigenwerbung von Google und DeepMind handelt, ein Blick in die folgende ausführliche Videopräsentation.
Das Thema aus der realen Welt, das sich die KI-Entwickler damit offensichtlich vorgenommen haben, ist die Entwicklung siegreicher Strategien in möglichst beliebig komplexen und möglichst offenen sozialen Situationen. Anders gesagt, man macht auf lange Sicht den Versuch, menschliche Freiheit zu totalisieren und zu überbieten. Nichts anderes heißt es, gegen eine Vielzahl von Spielern mit einer Vielzahl von Freiheitsgraden über regelmäßig siegreiche Strategien zu verfügen, die Gegner mögen sich verhalten, wie immer sie wollen.
Oben haben wir darauf hingewiesen, dass der Input von Alphastar abstrakte Listendaten und keine visuellen Informationen sind. Das ist insofern bemerkenswert, als der Input menschlicher Spieler natürlich ebenso Informationen über die Regeln, aber immer zusammen mit dem jeweiligen, in eine Story eingebettete audiovisuellen Spielgeschehen ist. Wir sollten ein paar Worte dazu sagen, was das für eine Art von Geschichte ist, und wir sollten daher kurz beschreiben, was man auf dem Bildschirm eigentlich sieht, während man spielt, was also diesen Teil des Geschehens ausmacht, den Alphastar schlichtweg ignoriert.
Der Spieler begibt sich in ein Echtzeit-Strategiespiel, dessen Story eine Mischung aus Fantasy und Science-Fiction ist. Einziges durch alle Teile variiertes Thema ist der permanente Krieg in einer düsteren kosmischen Welt, der Aufbau von Armeen und deren streng hierarchische Führung. Drei Parteien treten gegeneinander an, die Terraner, eine Rasse heimatloser martialischer Helden, als zweite Partei die stinkenden und Krankheit verbreitenden Zerg, eine Insektenpopulation und als dritte die technologisch überlegenen Rasse der Protoss. Wer möchte, kann sich in diese Welt nicht nur per Strategiespiel begeben, sondern kann auf eine immer längere Reihe von Fantasy-Romanen aus dem Buchhandel zugreifen. Da das Strategiespiel, seine Vorläufer eingerechnet, seit ca. 20 Jahren existiert, darf man annehmen, dass sich Millionen Menschen gern und lang in der Phantasiewelt des Spiels aufhalten. Immerhin war der Vorläufer StarCraft I mit mehr als 9,5 Millionen verkauften Exemplaren im August 2007 das meistverkaufte Echtzeit-Strategiespiel. 2019 liegt von den digitalen Spielen, in denen Kriege geführt und gemordet wird, der Ego-Shooter call of duty allerdings weit vor StarCraft II.6 Bis November 2009 wurden von call of duty über 55 Millionen Spiele verkauft, wodurch die Serie Gesamteinkünfte von über 3 Milliarden US-Dollar erzielte.7 2011 arbeiteten mehr als 500 Entwickler an der Call-of-Duty-Marke. Man wird sich fragen, warum sich DeepMind Inc. ausgerechnet StarCraft II für seine KI-Versuche vorgenommen hat und nicht das wesentlich verbreitetere call of duty, das ebenfalls Spielmodi mit ganz ähnlichen Eigenschaften aufweist wie denen, die bei StarCraft mit Hilfe von KI nachmodelliert wurden. Ein naheliegender Grund dürfte die weit direktere Gewaltdarstellung im Ego-Shooter sein, die schlecht zu den guten Werken passt, die Google dem Einsatz von künstlicher Intelligenz in der Zukunft zutraut. Aber das mag ein Irrtum sein.
Wie gesagt kappt die KI-Software Alphastar all diese Hintergründe zu einer Story. Die meisten menschliche Spieler dürften jedoch das Spiel nie begonnen haben ohne die angebotene Story, ohne dass sie die Fantasy-Szenarien in irgendeiner Weise gefesselt hätten. Diese Überlegung begrenzt sehr stark, was das eigentlich ist, was KI, in diesem Fall Alphastar, eigentlich simuliert und optimiert und was nicht. Letztlich ist das Überbotene eben kein menschliches Verhalten. Denn Menschen neigen nicht dazu, sich ohne Story, ohne Sinnzusammenhang oder Motiv, und sei es noch so obskur, ohne etwas, das sie reizt oder das sie für sinnvoll halten, überhaupt irgendwie zu engagieren und in Konkurrenz miteinander zu treten und sei es aus Spaß daran, auf andere Leute zu schießen und anderer Leute Ressourcen zu vernichten. Das ist einer der großen Unterschiede zwischen Bewusstsein und Intelligenz als bloßer Handlungskompetenz.
Ein kleiner Seitenhieb gegen eine all zu knappe Minimaldefinition von Bewusstsein: Mit dem Begriff des Bewusstseins wird bisweilen die Aufmerksamkeit auf die eigenen mentalen Zustände bezeichnet. Dieses Bewusstsein kann sowohl vorbegrifflich als auch begrifflich-propositional strukturiert sein. Im zweiten Fall hat es zum Inhalt, dass sich eine Person in einem bestimmten Zustand befindet. Es ist zudem reflexiv, weil die Selbstzuschreibung mentaler Zustände voraussetzt, dass das betreffende Subjekt über einen geeigneten Begriff von sich selbst als potenziellem Träger solcher Zustände verfügt. Diese Art des Bewusstseins wird entweder als innere Wahrnehmung oder als höherstufiges Wissen der eigenen inneren Zustände beschrieben. Das ist zumindest einmal innerhalb der Philosophie bis heute ein Kriterium für Bewusstsein. Nun wird bei der KI - nicht nur der zu StarCraft II - der Eigenzustand des Software-Agenten in der Tat zu einem der ständig zentralen Themen der KI. Programmintern steht in der Tat sehr genau fest, welche Eigenzustände zu messen sind, sogar sehr viel präziser, wenn auch sehr viel weniger komplex als bei dem, was Philosophen normalerweise darunter verstehen, einen Begriff von sich selbst zu haben. Der Software-Agent bemisst und bewertet ständig seinen eigenen Ressourcen. Verfügt er aber deshalb schon über Bewusstsein? Oder wird er irgendwann über Bewusstsein verfügen, wenn der reflexive Rekurs auf Eigenzustände in Zukunft noch wesentlich komplexer wird? Diese Definition von Bewusstsein dürfte viel zu kurz greifen.
Welche Gefahren und welche Möglichkeiten kommen damit auf uns zu? KI entwertet menschliche Fertigkeiten, indem sie sie überbietet. Es handelt sich keineswegs um das erste Entwertungsgeschehen menschlicher Fertigkeiten in der Menschheitsgeschichte.
Test zur unbewussten Behirntaetigkeit
Anmerkungen:
1 https://de.wikipedia.org/wiki/AlphaGo_gegen_Lee_Sedol
2 Ebd.
3 "Solve intelligence. Use it to make the world a better place." und führt das folgendermaßen aus: "DeepMind is the world leader in artificial intelligence research and its application for positive impact. We’re on a scientific mission to push the boundaries of AI, developing programs that can learn to solve any complex problem without needing to be taught how. If we’re successful, we believe this will be one of the most important and widely beneficial scientific advances ever made, increasing our capacity to understand the mysteries of the universe and to tackle some of our most pressing real-world challenges. From climate change to the need for radically improved healthcare, too many problems suffer from painfully slow progress, their complexity overwhelming our ability to find solutions. With AI as a multiplier for human ingenuity, those solutions will come into reach. (...) By implementing our research in the field of games, a useful training ground, we were able to create a single program that taught itself how to play and win at 49 completely different Atari titles, with just raw pixels as input. And in a global first, our AlphaGo program took on the world’s best player at Go - one of the most complex and intuitive games ever devised, with more positions than there are atoms in the universe - and won. At the same time, our DeepMind Applied team is working with experts in different fields to make meaningful real-world breakthroughs. Our systems are having a major environmental impact by learning how to use vastly less energy in Google’s data centres, and we’re collaborating with clinicians in the UK’s National Health Service on delivering better care for conditions that affect millions of people worldwide. (...) Our motivation in all we do is to maximise the positive and transformative impact of AI. We believe that AI should ultimately belong to the world, in order to benefit the many and not the few, and we’ll continue to research, publish and implement our work to that end." (Quelle 5.3.2019: https://deepmind.com/about/)
4 Vgl. https://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf
5 Vgl. http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.676.4320&rep=rep1&type=pdf
6 Vgl. https://de.statista.com/statistik/daten/studie/36854/umfrage/verkaufszahlen-der-weltweit-meist-verkauften-viedeospiele/
7 Vgl. https://www.gamesindustry.biz/articles/call-of-duty-franchise-passes-USD3-billion
zurück ...
weiter ...
Ihr Kommentar
Falls Sie Stellung nehmen, etwas ergänzen oder korrigieren möchten, können sie das hier gerne tun. Wir freuen uns über Ihre Nachricht.